#AI 訓練
高盛:中國網際網路行業策略大轉向,雲和資料中心成top pick,超越遊戲
高盛在3季度業績發佈及調研後,對中國網際網路行業策略大轉向:把“雲與資料中心”提到了首選類股,排到了遊戲和出行之前。AI帶來的算力需求和資本開支(Capex)擴張,已經是最確定的增長邏輯了。1、最大預期差:雲與資料中心成為“新王” ☁️高盛這次非常堅決,把雲和資料中心類股從原來的第三提升到第一。邏輯很硬:AI訓練和推理的需求持續爆發,加上巨頭們都在搞“多晶片策略”,資料中心的訂單量非常飽滿。核心邏輯:不僅是輝達,國產晶片的供應上來後,算力基建的利用率和回報率都在提升。2、AI助手的“入口之戰”是個大隱憂 🤖報告專門討論了一個長線風險:字節跳動的“豆包手機助手”。這東西能直接在作業系統層面(OS-level)幫使用者跨APP操作,比如比價、點外賣。這對現有的APP生態是個降維打擊。雖然目前微信等巨頭因為安全隱私原因封鎖了它的介面,但這種“超級AI代理”對使用者流量入口的爭奪,是未來幾年最大的變數。字節系App現在霸榜iOS免費榜前五中的四席,攻勢很猛。3、本地生活:燒錢該結束了,關注利潤修復 🛵外賣和即時零售打得太凶,三季度行業大概虧了700億人民幣,太誇張了。高盛判斷,這種非理性的補貼戰不可持續。格局推演:美團、阿里、京東的市場份額最終可能會穩定在 5:4:1。美團:雖然長期單均利潤預期被微調(從0.8元降到0.7元),但在這個價位,壞消息已經Price-in了,隨著補貼退坡,利潤修復是大機率事件。4、最新的“核心股票池”名單 📝根據最新的類股偏好,高盛更新了首選名單:雲/資料中心:阿里巴巴、萬國資料、世紀互聯。遊戲(防守反擊):騰訊、網易。出行(格局穩固):滴滴、滿幫。電商(新面孔):快手(新增為關鍵推薦,看好其AI模型Kling的突破和電商變現)。5、估值怎麼看? 📊現在中概網際網路類股的2026年預期市盈率(P/E)中位數大概是18倍。之前的上漲主要靠殺估值修復(Multiple Expansion),接下來的漲幅,必須得靠實打實的每股收益(EPS)增長來驅動了。所以,選利潤兌現能力強的公司,比單純博反彈要穩妥得多。總的來說,風向變了,硬科技基礎設施(資料中心)的優先順序在上升,而純流量變現的生意面臨AI新玩法的挑戰。 (硬AI)
4倍性能、50%成本降幅!亞馬遜強勢推出Trainium3晶片,AI訓練推理增添新選項!
當地時間 12 月 2 日,亞馬遜雲端運算服務(AWS)在美國拉斯維加斯舉辦的年度雲端運算盛會“AWS re:Invent 2025”上發佈了全新的自研 Trainium3 晶片,以及採用 Trainium3 晶片的 Trainium3 UltraServer 伺服器。根據首席執行官 Matt Garman 的介紹,新款 Trainium3 晶片的性能是前代產品的 4 倍,並採用台積電 3 奈米工藝製造。每個晶片都配備了 144 GB 的 HBM3E 記憶體,記憶體頻寬為 4.9 TB/s,提供 2.52 FP8 PFLOPs 的算力。(來源:社交媒體 X)Trainium3 UltraServer 單機最多整合 144 顆 Trainium3 晶片,總共配備 20.7 TB HBM3E、706 TB/s 記憶體頻寬,可提供最高 362 FP8 PFLOPS 的算力,時延降低 4 倍,可更快訓練超大模型,並大規模支撐推理服務。其計算性能比 Trainium2 UltraServer 高出 4.4 倍,能源效率高出 4 倍,記憶體頻寬也高出近 4 倍。在使用 OpenAI 的開源大模型 GPT-OSS 進行測試時,Trainium3 UltraServer 的單晶片吞吐量可提升 3 倍,推理響應速度提升 4 倍。這意味著企業可以在更小的基礎設施規模下應對峰值需求,顯著最佳化使用者體驗,同時降低每次推理請求的成本。AWS 以垂直整合方式打造 Trainium3 UltraServer,從晶片架構到軟體棧全鏈路協同。核心之一是新一代網路基礎設施,用於消除傳統分佈式 AI 計算的通訊瓶頸:NeuronSwitch-v1 提供 2 倍 的 UltraServer 內部頻寬;增強型 Neuron Fabric 將晶片間通訊延遲降低至 10 微秒以內。這種強大的配置使得它非常適合處理下一代最前沿的 AI 工作負載,例如:訓練大規模AI模型,可以將複雜模型的訓練時間從數月縮短至數周;處理高並行的 AI 推理請求,以低延遲即時處理數百萬使用者的請求,例如智能對話、視訊生成等;運行特定複雜任務,如智能體系統、專家混合模型和大規模強化學習等。包括 Anthropic、Karakuri、Metagenomi、NetoAI、Ricoh、Splash Music 等客戶,已經借助 Trainium 將訓練和推理成本降低最多 50%。其中,Decart 在即時生成式視訊方面實現了 4 倍推理速度提升,成本僅為 GPU 的一半;而 Amazon Bedrock 已經在生產環境中使用 Trainium3 提供服務。(來源:社交媒體 X)對於需要更大規模的客戶,EC2 UltraCluster 3.0 可連線千台 UltraServer,構成擁有多達 100 萬顆 Trainium 晶片的叢集——是上一代的 10 倍。這使得此前完全不可能的任務成為現實:從在兆級 token 資料集上訓練多模態模型,到為數百萬並行使用者提供即時推理服務。自研晶片是亞馬遜的重要戰略項目之一,目標是避免過度依賴昂貴的輝達硬體。而對於 Trainium3 來說,一個關鍵問題在於:有多少大型外部客戶會願意採用這套硬體。尤其是在Google旗下的 TPU 持續搶佔 AI 晶片市場的背景下。另一個重要變數是 AI 初創公司 Anthropic 的晶片採購分配。今年 10 月,Anthropic 宣佈與Google達成合作,將使用多達 100 萬顆Google TPU 晶片,以實現除亞馬遜和輝達之外的供應多元化。Anthropic 表示,亞馬遜仍是其主要訓練合作夥伴與雲服務提供商。該公司預計,到今年年底,將使用超過 100 萬顆 Trainium 2 晶片,其中包括運行在擁有近 50 萬顆 Trainium 處理器的 Project Rainier 超級電腦之上。此外,AWS 也預告了下一代 AI 訓練晶片 Trainium4的研發進展。其在各方面都將實現大幅性能躍升,包括處理性能(FP4)至少提升 6 倍、FP8 性能提升 3 倍、記憶體頻寬提升 4 倍。結合持續的軟硬體最佳化,其實際性能提升將遠超基準數值。其中,FP8 提升 3 倍是一次基礎性飛躍。模型訓練至少快 3 倍,推理吞吐量也至少提升 3 倍,並且隨著軟體最佳化將獲得進一步加成。FP8 已成為現代 AI 工作負載在精度與效率之間的行業標準格式。為進一步提升單機擴展性能,Trainium4 將支援 NVIDIA NVLink Fusion高速互聯技術。該能力將使 Trainium4、AWS Graviton 處理器及 Elastic Fabric Adapter(EFA)能在統一 MGX 機架內協同工作,為客戶提供支援 GPU 與 Trainium 的成本更優、性能更強的機架級 AI 基礎設施。這一整合將建構一個靈活、高性能的平台,最佳化應對未來對訓練與推理都極其苛刻的 AI 工作負載。 (問芯)
挑戰國際巨頭,中國初創公司發佈新一代AI訓練晶片
一家由中國科技企業家創立的美國初創公司Enther AI,近日正式發佈了其首款自研AI訓練晶片——Enther TPU。據公司宣稱,該晶片在運行特定AI模型時,其速度可達輝達2020年發佈的A100 GPU的1.5倍,能效提升42%。Enther AI由前Google工程師郭志雄(Zhixiong Guo)於2023年創立。公司在推出Enther TPU的同時,也展示了整合該晶片的E1伺服器節點。每個E1節點搭載4顆Enther TPU,可提供高達10.8 petaFLOPS的BF16訓練算力。Enther AI進一步提出了建構萬卡叢集的藍圖,其設計的“E1超級叢集” 通過光學電路切換網路連線多達2500個E1節點(即10,000顆TPU),旨在為兆參數大模型提供訓練支援。值得注意的是,儘管Enther AI總部位於美國,但其研發活動具有鮮明的跨太平洋特徵。公司的研發團隊主要在中國,這使其發展路徑和動向備受業界關注。在軟體生態方面,Enther AI推出了E-SDK,聲稱其能“無縫”將基於NVIDIA GPU的AI訓練項目遷移至其Enther TPU平台上,並支援PyTorch、JAX等主流AI框架。不過,目前該晶片的公開性能資料均來自Enther AI自身的測試報告,尚未有第三方機構的獨立驗證。此外,Enther TPU作為市場新入者,其實際量產交付能力、在更廣泛AI工作負載下的穩定性以及能否成功建構起持續的開發者生態,仍是其未來需要面對的關鍵挑戰。在全球AI算力競爭日益激烈的背景下,Enther AI的亮相為市場帶來了新的選擇。然而,從技術發佈到獲得產業界的廣泛認可和採用,這家年輕的初創公司仍有很長的路要走。其後續發展,特別是產品的實際應用表現,將成為衡量其成功與否的真正試金石。 (晶片行業)
訓練AI,然後被裁?Uber AI項目突遭裁員,零工、博士都沒留下來
關於AI的起起落落,一切都那麼迅猛,就連裁員也是。圖片來源:unsplash11月27日,據Business Insider獲取的資訊,本周一,Uber的AI訓練計畫“Project Sandbox”中,很多項目成員已收到“裁撤通知”,即便是承諾項目僱員至少有三個月的工作期限。Uber給出的理由是,因為客戶“內部優先事項發生了變化”,他們提前被拋棄了。目前尚未清楚裁員人數。但引人關注的是,在這一輪裁員大潮中,零工和博士都未能倖免,均收到了裁員郵件。不過,由於從入職到離職太過迅速,被裁員的人中大部分都還沒能拿到第一筆工資,Uber方面稱,他們的工資可能需要再等七周,也就是原先約定的合同期限結束後。一個月前,Project Sandbox計畫啟動,據稱,主要是為Google服務,用手中的人力資源幫助其開發AI工具。該項目至少有十余家外包公司參與。根據公司官網資訊,Uber AI Solutions提供資料標註、模型測試及Agentic AI技術堆疊等企業服務。近年來,Uber一直致力於在網約車、外賣業務的基礎上加速發展AI業務,利用AI最佳化自身繫統的定價、匹配和調度效率,與Google的Waymo等公司一同佈局自動駕駛計程車(Robotaxi)。其中,Uber AI Solutions尤其受到關注。今年6月,Uber宣佈將其技術平台提供給全球AI實驗室和企業使用,利用其十年來在資料方面的積累和業務經驗,幫助客戶構造、測試,最終打造出更加智能的AI模型和應用。在Uber的目標市場中,Agentic AI尤受重視。公司官方發佈《Agentic AI技術堆疊:企業需要滿足那些條件才能在2026年大規模採用》文章中,詳述了Uber為了幫助客戶在2026年打造出真正的Agentic AI所進行的規劃。當然,其解決方案實際上離開不了“堆人工”,該公司介紹稱,將通過全球超800萬零工勞動力收集和評估實際資料,提供超過200種語言的服務,涵蓋30多個網路。今年以來,關於美國、印度等地的Uber司機、外賣人員在工作之餘通過標註視訊、圖片等完成AI訓練賺錢的貼文已經廣為流傳。不過,這項工作需要的遠不止傳統意義上的零工。就在月初的三季報財報電話會議上,Uber首席執行官達拉·科斯羅沙希(Dara Khosrowshahi)還明確表示,其人工智慧訓練任務中的不少崗位都需要博士學位,他們會在訓練中承擔更高階的任務。不管是不是所謂“AI降臨派”,或許我們都不得不承認,總有一天我們要為AI打工。今年以來,以人工喂養AI的產業愈發壯大,全球數十萬人加入了AI資料標註的工作,有的將其作為職業發展方向,有的將其視為帶來可觀收益的副業。在Google大獲成功的Gemini 3和Nano Banana Pro背後,也少不了這些為AI打工的人。Business Insider稱,Project Sandbox的參與成員完成Uber方面的註冊後,都會與Google的一名特定員工取得聯絡。目前,Surge AI、Scale AI等初創企業都致力於為科技巨頭們的AI事業提供人工訓練服務。不過,這個市場遠沒有那麼穩定,相關公司的發展歷程中,裁員往往是“常規操作”。其中典型例子,莫過於為OpenAI提供人工訓練、最早入局這片市場的Invisible Technologies,該公司在ChatGPT發佈數月後就開始了裁員。此外,AI領域的明星公司,包括GlobalLogic、Scale AI等在內,今年都啟動了大規模裁員計畫。6月,Meta宣佈收購Scale AI 49%的股權後,後者首席執行官汪滔(Alexandr Wang)隨即加入Meta,而Scale AI則因為客戶流失和經營問題、組織變動等原因進行了大規模裁員。據稱,包括佔公司總人數超過10%的200名全職員工和500餘名合同工失去了工作。雖然汪滔入職Meta後主導的TBD Lab團隊很受重視,但Meta自身的大裁員也已經在10月到11月開始。根據美國數位媒體平台Axios早先發佈的報導,Meta計畫在10到11月之間裁撤600名AI條線的員工。FAIR研究團隊的研究總監田淵棟已經離職,AI教父級人物、圖靈獎得主楊立昆(Yann LeCun)也確認自己將於年底從Meta離職創業。雖然目前多項研究顯示,AI對整體就業的衝擊尚未顯現,但全球最大求職網站Indeed的最新報告則指出,即使AI還無法取代人工,但至少已經能讓企業用更少投入做更多的事,尤其在資料分析領域,員工無需過多培訓就能利用AI來分析資料。這導致科技公司資料分析領域的職位發佈數量急劇下降,相比新冠疫情前,相關領域的職位空缺減少了40%。即使就業市場不會出現“失業潮”,但如果缺少新的招聘崗位,未來的就業結構就會變得異常畸形。即使不考慮AI,日本1990年代末泡沫經濟破裂後的情況也提示了這種危機。當時,為了保證已冗餘的在職員工有能力支付房貸,避免金融系統全方位崩潰,日本的政策決策層和大企業幾乎主動放棄了畢業生招聘,這在“失去的三十年”中導致了一系列的經濟和社會問題。那些率先啟用AI的公司或許會獲得成功,但頗為諷刺的現實是,那些最早為AI打工的人,恐怕始終逃不過被拋棄的命運。 (鈦媒體AGI)
不用輝達,Gemini 3是如何訓練的?
經過一年多的蟄伏,Google帶著全新升級的多模態Gemini3來襲,前端UI升級性能拉滿,雖然深度推理、上下文一致性等與ChatGPT5.1 thinking相比還有差距,但總體上已經能滿足絕大多數使用者的基本AI需求。Gemini 3是如何訓練的?是完全基於GoogleTPU嗎?大家都在關注這些核心問題!Gemini 3 = 稀疏 Mixture-of-Experts(MoE)Transformer + 原生多模態(文字/圖像/音訊/視訊)+ 超長上下文(輸入最多 1M token、輸出 64k)+ RL 強化“多步推理/定理證明”的一整套棧,並且是用 Google 自家 TPU Pod + JAX + Pathways 從零訓練出來的新模型。下面分幾層講:架構、訓練資料與流程、算力/系統設計,再講一下“這套設計背後的邏輯”。架構:稀疏 MoE Transformer + 原生多模態 + 超長上下文1. 核心骨架:Sparse Mixture-of-Experts Transformer官方模型卡直接寫了:架構 = 稀疏 Mixture-of-Experts(MoE)Transformer原生支援文字、視覺(圖像)、音訊輸入(視訊通常拆成圖像幀+音訊序列送進來)。MoE 的關鍵點:每一層有很多“專家子網路”(experts);前面有個 routing/gating 子網路,對每個 token 決定送到那幾個專家;每個 token 只啟動少數幾個專家,不是所有參數都跑一遍;這樣可以做到:總參數量很大(外界估計總體容量>1T 級)但單次推理算力成本可控。相當於,不是每個問題都叫公司裡所有員工一起開會,而是路由到 2–3 個最合適的小組來處理。2. 原生多模態(Text + Vision + Audio + Video)模型從設計上就是 “多模態優先”,而不是 “先做文字,再外掛一個視覺編碼器”。文字 token、圖像 patch、音訊幀,都會進同一個 Transformer 主幹,只是前端有不同的編碼器,把不同模態統一到同一向量空間。Google 還在此基礎上做了 Nano Banana Pro 這種圖像模型,直接把 Gemini 3 Pro 當成圖像生成/編輯的“主腦”。這類原生多模態的好處:可以跨模態推理:例如看視訊+講解文字,一起理解“這個實驗為什麼失敗”;對產品場景(搜尋介面截圖、程式碼+報錯截圖、講課視訊+PDF)非常友好。3. 超長上下文:1M Token 輸入、64k 輸出官方模型卡:輸入上下文上限 1,000,000 token,輸出上限 64,000 token。MarkTechPost 文章也確認了這點,並強調它是“讓 agent 能吃完整程式碼庫/長文件/多小時視訊”的關鍵。在實現上,Google 沒公開全部細節,但結合他們開放原始碼的 Gemma 3 報告可以看出最近的思路:更多 local attention 層 + 更短的 local span,減少 KV-cache 爆炸;把“少量 global attention 層”用在關鍵資訊彙總上。所以你可以理解為:局部窗口裡用 cheap 的 local attention,偶爾插一層“全域視角”做資訊整合,再配合 MoE 把計算分散到不同專家上,共同支撐 1M context。4. 和 Gemini 2.5 的差異官方說得很清楚:不是 2.5 的微調版,而是從頭訓練的新一代架構。在各種推理、多模態、長上下文基準上,都顯著超過 2.5 Pro。訓練資料:多模態 + 多來源 + 大規模清洗1. 預訓練資料構成模型卡里披露得相當詳細:多模態、多領域的大規模語料:公開網頁文件 & 文字程式碼(多種語言)圖像音訊(含語音和其他音訊類型)視訊資料來源類型:公共可下載資料集爬蟲抓取資料(遵守 robots.txt)商業授權資料(licensed)Google 產品中的使用者資料 & 與模型的互動資料(在對應 TOS/隱私政策和使用者控制下)Google 內部業務產生的資料AI 合成資料(synthetic data)所以整體可以理解為:“公共網際網路 + 授權版權庫 + 自家產品行為日誌 + 內部 & 合成資料” 的大雜燴,而且是多模態同步喂的。2. 資料清洗與安全過濾同一份模型卡也寫了資料處理流程:去重(deduplication)遵守 robots.txt各類 安全過濾(遮蔽色情、暴力、CSAM 等內容)質量過濾,去掉垃圾/無關內容這些既是安全要求,也是為了穩定訓練(髒資料太多會直接拉垮收斂)。訓練流程:預訓練 + 指令微調 + RL(人類 & critic 反饋)官方沒有給出超細節的損失函數和 schedule,但框架是比較典型的“三階段”:1. 階段一:自監督預訓練(大模型基座)在上面那堆多模態資料上,做類似「下一個 token 預測」的自監督訓練;文字/程式碼用標準的 autoregressive objective;圖像/音訊/視訊通過適配的編碼方式,把 patch/幀也當 token 來預測。目標:學到通用語言+世界知識+多模態表徵,不管任務、不管指令。2. 階段二:監督式指令微調(SFT)用“人類寫的高品質多模態指令資料”進行微調:問答、對話、程式碼生成、推理題目圖文問答、視訊理解、音訊理解這一步類似於把“會說話的大腦”變成“會聽指令做事的助手”。模型卡把這部分統稱為 instruction tuning data。3. 階段三:強化學習 + 安全部署Gemini 3 在 RL 上寫得比之前代更直白:使用 reinforcement learning from human and critic feedback:人類標註那種回答更好;再加“critic 模型”自動給出評分;強化學習用到的內容特別強調:多步推理資料問題求解資料定理證明類資料也就是說,他們專門用 RL 把模型往“會慢慢推理、拆解問題、做數學/證明”這個方向拉。這也解釋了:Gemini 3 在 Humanity’s Last Exam、ARC AGI 2 等高難度推理 benchmark 上比 2.5 和不少競品強。安全相關:他們把 資料過濾 + 條件預訓練 + SFT + RLHF + 產品級安全過濾 都當成安全“層級防護”。並按照自家的 Frontier Safety Framework 做紅隊和能力評估。算力與系統:TPU 全端 + JAX + Pathways這次 Gemini 3 的一個重要“元敘事”是:“不用 NVIDIA 也能在前沿”。1. 硬體:完全用 Google 自家 TPU 訓練模型卡寫得很清楚:訓練全部在 Google Tensor Processing Units(TPUs) 上完成;使用 TPU Pods(大規模 TPU 叢集),支援多裝置分佈式訓練;利用 TPU 的高頻寬記憶體和大 batch 做到了更好的模型質量 + 能效。外部文章因此強調:Gemini 3 證明了一條“自研晶片+自家雲”的完整路徑,可以在不依賴 GPU 供應鏈的情況下做到 frontier 等級。2. 軟體棧:JAX + ML Pathways模型卡:訓練用的是 JAX + ML Pathways。Pathways 是 Google 自己的多機多工訓練框架,比較適合這種 MoE + 超長上下文的大模型平行。結合 MoE 架構,你可以想像它在系統層面需要解決:專家參數在 TPU Pod 上怎麼切片/放置;token 的 routing 怎麼跨裝置做負載平衡;超長上下文的 KV cache 怎麼 sharding 和回收;在這些約束下還要保證訓練吞吐和穩定性。這些實現細節沒公開,但從他們強調的“sparse MoE + 1M context 實用化”可以看出,系統工程佔了很大比重。從“設計選擇”看 Gemini 3 的幾個洞察:站在方法論角度,可以大概總結出 Google 這代模型的取向:容量 vs 成本:用 MoE 換算力效率想要兆級參數的表達力,但又不能每 token 都燒滿;Sparse MoE = “只叫對這件事最有用的幾個專家出來”,能在相同算力下塞進更多知識和能力。場景優先:原生多模態 + 超長上下文 + agent 能力多模態 + 1M context,是為了直接吃:程式碼庫、產品文件、UI 截圖、視訊課程、系統日誌;再配合 Antigravity 這類 agent IDE 和“Generative UI”,把模型變成真正的“作業系統級助手”,而不是只會聊天。推理優先:在 RL 裡刻意強化多步推理和定理證明很多 frontier bench(ARC AGI、GPQA、數學競賽)都強調“要一步步想”;所以他們顯式用這類資料做 RL,把 reward 設計成“慢想但答對”。安全與合規:從資料到產品的多層防護資料側就做過濾;模型訓練階段用安全相關的目標和 RL 懲罰項;部署時再加 policy + 安全過濾 + Frontier Safety 評估。全端一體化:TPU + 框架 + 模型 + 產品的協同最佳化完全在自家 TPU 上訓練,用 JAX + Pathways 深度繫結硬體特性;再縱向整合到 Search、Workspace、Antigravity IDE、AI Studio 等產品裡。Gemini 3 更像是“用 TPUs 驅動的 MoE 多模態大腦”,通過龐雜但乾淨的多模態資料預訓練,再用 RL 把“多步推理+Agent 行為”打磨到實戰可用。為何Google選擇Sparse MoE 而不是 Dense LLM?Sparse MoE vs Dense LLM:到底換來了什麼,又付出了什麼?Sparse MoE = 拿“更多參數容量”換“更複雜的系統工程”;Dense LLM = 拿“簡單穩定”換“更高的推理成本 / 更有限的容量”。1. 參數容量 vs 計算成本設想一個簡化例子:Dense 模型:400B 參數,每一層所有 token 都用到全部參數。Sparse MoE:假設有 32 個專家(experts),每個 expert 有 50B 參數。模型“總容量”≈ 32 × 50B = 1.6T 參數;但路由策略:每個 token 只啟動 2 個 expert。那麼一次前向計算用到的參數 ≈ 2 × 50B = 100B 參數。所以,對「單次推理」來說:Dense 400B:固定用 400B;Sparse MoE:邏輯容量 1.6T,但每個 token 實際只跑 100B 左右。這就是 MoE 的核心吸引力:在「算力可承受」的前提下,把總容量做得遠超 Dense,強化“記憶 & 專業化能力”。2. 路由 & 負載平衡:MoE 的第一大坑但換來的是非常難搞的一堆工程問題:Routing/gating 的選擇每個 token 要選出“最合適”的 1–2 個專家。路由器本身也是一個小網路,要學習“那個 token 該找那類專家”。訓練前期很容易變成:少數幾個專家被瘋狂點名,其餘專家閒置 → 訓練不收斂。Load balancing(負載平衡)為了防止“熱門專家爆滿”,通常加一個正則/損失項,強制各專家被用得更均勻。太強 → 路由“被拉平”,失去“專家專長”;太弱 → 過度偏好少數專家,參數利用率低。跨裝置通訊成本專家通常分佈在不同 TPU/GPU 上;每一層都要把 token 按路由結果“打散 + 聚合 + 再拼回”,需要大量 All-to-All 通訊;通訊沒設計好,MoE 直接變成一個巨大的網路風暴製造機,吞吐掉到谷底。Dense LLM 就簡單很多:所有層 & 參數按順序切片,資料平行 / tensor 平行就行;沒有額外路由邏輯,也沒有 All-to-All 的專家分發。3. 表達能力:通才 vs 專才MoE 的“理論賣點”是:不同專家可以學不同的“風格 / 領域 / 任務”:有的更擅長程式碼;有的更擅長數學;有的更擅長對話/閒聊;對於特定 token/任務,只呼叫那些“最適合”的專家。這會帶來幾個有意思的現象:“專家人格”,在可視化路由模式時,能看到某些專家只在「程式碼塊 + 錯誤資訊」附近被啟動;另一些專家在「多段數學推導」裡用得更多。局部過擬合 vs 全域泛化好處:細分任務的表現可以很強(因為專家參數多,專注範圍窄);風險:如果路由器沒學好,有的專家可能對“某些寫法/資料分佈”過擬合,換個表達就表現下降。Dense LLM 則是完全的“通才模式”:所有 token 都用同一套參數;更容易在分佈遷移時保持穩健,但對容量和算力要求更高。4. 訓練 & 推理的穩定性Dense LLM 優點:實現簡單,最佳化穩定;不會出現“專家閒置”、“路由崩壞”的問題;調參 & debug 難度低很多。Sparse MoE 的典型麻煩:訓練穩定性更差路由器一旦 bias 到幾個專家上,訓練會偏;需要 carefully 的 warmup、損失設計、甚至 curriculum 才能穩住。調參維度更多專家數量、每 token 啟動專家數、capacity factor(每個 expert 能接多少 token)、負載平衡 loss 權重等等,都是額外的超參數。部署 & 推理複雜度高多裝置專家部署佈局;路由所帶來的延遲和視訊記憶體碎片問題;即時服務時要和 KV cache / batching 配合,這些都比 Dense 麻煩一大截。但到了 Gemini 3 這種規模:Dense 再往上堆,推理成本會非常誇張;在 TPU 上做全端 MoE 最佳化對 Google 來說是可控的;所以他們選了「更高系統複雜度,換更大容量和更低推理成本」這條路。所以,Google使用MoE 是把“模型容量的 scaling law”從“全靠花算力”變成“花更多系統工程 + 一部分算力”。幻覺情況如何?Gemini 3 在“知道的事情答得很強”上是 SOTA,但在“不知道時老老實實說不知道”上,做得並不好。幾個關鍵 benchmark:1. SimpleQA Verified(事實問答精準率)也就是說:在簡單事實題上,它比競品明顯更“知道得多”。Gemini 3 Pro:72.1% 正確率Gemini 2.5 Pro:52.9%GPT-5.1:大約 35% 左右,Claude Sonnet 4.5 更低。2. AA-Omniscience(知識 + 幻覺聯合測評)這 88% 是啥意思?大意是:當它沒有答對時,~88% 的情況都會硬給一個自信的錯誤答案,而不是說“我不知道 / 沒法確認”。Gemini 3 Pro 在 Omniscience Index 總分和 Accuracy(正確率)都是第一。但同一個評測裡,它的 Hallucination Rate ≈ 88%,而且和 Gemini 2.5 Pro 差不多。所以:“Gemini 3 確實比上一代、也比很多競品更常給出正確答案”;但也的確 “一旦不知道,它依然很愛亂編,而且看起來很自信”。不少媒體和分析直接點名這一點——“在可靠性 benchmark 裡拿第一,但幻覺率仍然很高”。所以,Gemini 3 的幻覺問題現在看起來“挺嚴重”,而且和 2.5 相比在“會說不知道”這塊幾乎沒進步。但與此同時,它在很多 推理、多模態和事實精準率 benchmark 上又明顯領先。所以更合理的定位可能是:這是一個“知識多、推理強,但自我認知(知道自己不知道)還很差”的巨大大腦。對如何使用Gemini用法,我會建議:把它當作“生成研究結構 + 發掘盲區 + 做 scenario/ontology 的 co-pilot”更為恰當合適。 (貝葉斯之美)
HPC市場迎來十年最快增長
用於 AI 訓練和推理的叢集架構正在推動資料中心基礎設施支出空前的增長,但它們也對 HPC(高性能計算)架構產生了反射性的有益影響。這得益於為 AI 項目獲取資金相對容易,以及升級現有 HPC 系統以進行傳統模擬和建模的需求。本周,SC25 超級計算大會的第一天以 Hyperion Research 公司的傳統早餐會拉開序幕。Hyperion Research 剛剛完成了 2024 年 HPC 市場的考察,目前正在整理 2025 年的資料,並更新其對未來直到本十年末的預測。Earl Joseph 和 Mark Nossokoff 介紹了傳統的 HPC 市場及其人工智慧增強(AI augmentation),以及它的本地部署(on-premises)和雲部署模型;Bob Sorensen 則對量子計算市場進行了深入分析。我們稍後將單獨跟進量子計算分析,現在先聚焦於結合了 AI 增強的 HPC 市場和傳統 HPC 市場。從最高層面來看,根據 Hyperion 的資料,全球在過去三年中最廣泛的 HPC 支出情況以及未來五年內的預測如下:順便提一下,當 Hyperion 談論混合 HPC-AI 市場時,它並非簡單地將傳統 HPC 與整個 AI 市場相加。相反,它仔細梳理了 HPC 領域的所有交易,找出其中用於 HPC 功能的部分,以及用於加入到 HPC 應用中的 AI 功能的部分。這指的是 AI 增強的科學和技術計算,而不是由超大規模廠商、雲服務商和模型建構者建立的更一般的生成式 AI(GenAI) 內容。考慮到這一點,Hyperion 認為,2024 年,本地部署的 HPC-AI 系統推動了 503.9 億美元的收入,比 2023 年增長了 22.9%;而云端 HPC-AI 系統容量推動了 95.4 億美元的銷售額,增長了 4.9%。兩者相加,整個 HPC-AI 市場的總銷售額達到 599.3 億美元,增長了 23.5%——這遠遠高於過去十年左右該市場 7% 到 8% 的歷史平均增長率。展望 2025 年,Hyperion 認為,整體 HPC-AI 市場(包括所有類型的消費模式)將帶來 589.63億美元的收入,比 2024 年增長 17%,其中雲消費為 123.8 億美元,本地部署系統為 577.5 億美元。這些數字包括 HPC-AI 系統的硬體、軟體和服務,而不僅僅是伺服器。(我們稍後會討論這一點。)正如您從上圖所見,HPC-AI 支出的增長預計會略微放緩,但在本十年結束前,仍將保持在每年 7% 到 8% 歷史平均增長率的兩倍左右。讓我們對此進行一些細分。首先,我們來看看 HPC-AI 系統支出是如何按產品類別劃分的。Hyperion Research 在今年的早餐演示中沒有提供此類資料的隨時間變化細分,但提供了一個 2024 年細分情況的餅圖快照:上面的這個餅圖結合了分析師 Earl Joseph 和 Mark Nossokoff 提供的兩張圖表。其中一個值得注意的地方是,雲端運算消費模式終於在 HPC 領域獲得了一些關注,在 2024 年 HPC-AI 產品的 599.3 億美元支出中佔比 15.9%。(圖表顯示是 15%,但更接近 16%。)但同樣值得關注的是,雲端支出中有 30% 用於儲存,相比之下,本地 HPC-AI 中心支出中只有 21.7% 用於儲存。雲端儲存支出為 28.6 億美元,而計算(內含網路)支出為 66.8 億美元,計算與儲存的比例為 2.33:1。對於本地 HPC-AI 支出,計算(253.3 億美元)與儲存(上述 66.8 億美元)的比例為 3.77:1。本地 HPC-AI 中心比其雲端對應物更側重計算。目前尚不清楚這意味著什麼。雲端計算的成本通常比本地計算(分攤到四到五年)要昂貴得多。也許雲端使用者已經找出在更短的時間內運行更多核心以降低其計算成本的方法,從而縮小了計算和儲存支出之間的差距?服務仍然是 HPC-AI 預算中相當大的一部分——主要用於系統的安裝、維護以及系統軟體的技術支援——而軟體仍只佔 5%,是一個相對較小的份額。再深入瞭解一下 HPC-AI 市場的計算部分,Hyperion 是如何劃分主要用於 HPC 和主要用於 AI 的裝置銷售額的——在這兩種情況下,傳統 HPC 模擬和建模必須是總體工作負載堆疊中具有代表性的一部分,才能計入支出總額。請看:如您所見,傳統 HPC 收入在 2023 年出現了一點衰退,部分原因是 HPC 系統製造商的產品生命周期時機,部分原因是 GenAI 繁榮來襲以及每個人試圖弄清楚其含義時的短暫觀望。但根據 Hyperion 的資料,傳統 HPC 裝置的銷售在 2024 年反彈,並且在未來直到 2029 年的預測中都呈略微上升趨勢。然而,在 2027 年年中左右的某個時候,以 AI 為中心的硬體(超過 50% 的工作負載是 AI 任務)的銷售額將超過 以 HPC 為中心的硬體(超過 50% 的工作負載是 HPC 任務)。隨著時間的推移,由於 AI 功能被注入到 HPC 應用程式中,這種區分將變得越來越難以界定,更不用說量化了。與此同時,根據 Joseph 的說法,HPC-AI 系統的銷售額在去年相當不錯,並且在 2025 年上半年實現了非常好的增長。以下是按供應商劃分的 HPC-AI 伺服器銷售收入細分(第二列的單位是美元):這些資料是針對本地部署的 HPC-AI 伺服器的,您會注意到兩件事。首先,是“非傳統供應商”的收入,Hyperion 所指的正是我們所稱的原始設計製造商(ODMs),以區別於原始裝置製造商(OEMs)。這些 ODM 公司根據規格設計 HPC-AI 硬體,最初是作為超大規模廠商和雲服務商的供應商起步的,因為這些公司不想為他們的機器支付 OEM 溢價。他們根本負擔不起這樣做並保持盈利。我們不清楚這個名單中具體有那些 ODM,但我們認為其中很多公司在台灣和中國大陸開展業務,有趣的是,它們合計獲得的 HPC-AI 伺服器收入幾乎與慧與(Hewlett Packard Enterprise,HPE)一樣多。慧與在經過多年對 Compaq、SGI 和 Cray 的收購後,顯然是這個市場的領導者。正如您所預料,戴爾(Dell) 在 HPC-AI 領域排名第二,這可能會令人驚訝,因為在通用伺服器市場中,就伺服器收入流而言,戴爾的規模遠大於 HPE。在 HPC-AI 系統方面,價格區間的分佈尚算合理,但中端市場是最弱的,這在過去幾十年中通常如此:對我們來說,這是很奇怪(指奇特,而非好笑)的——當我們看到人工智慧巨頭正在安裝的那些巨型系統時,從系統價格區間來看,什麼構成了“領導力”HPC-AI 機器。Hyperion 表示,一台領導力 HPC-AI 機器——我們仍然認為它是一台超級電腦——的成本在 1.5 億美元或更多,一台超級電腦的成本技術上介於 [空缺] 之間(譯註:原文資料空缺),但超大規模廠商、雲服務商和模型建構者正在以千兆瓦(GW)的倍數來衡量自身,在這些場景中,1 GW 的處理能力大約花費 500 億美元,而輝達從中獲得約 350 億美元。超大規模廠商和雲服務商(以及他們的模型建構客戶)帳面上約有 6000 億美元的資料中心資本支出,這大致相當於 12 千兆瓦的電力。最近 Top500 排行榜上的四台百億億次級(exascale-class)超級電腦——成本約為 5 億至 6 億美元——在運行高性能 LINPACK 基準測試時,功耗在 15.8 兆瓦到 38.7 兆瓦之間。(該基準測試用於給出它們在最新榜單上的 Top500 排名。)此外,2024 年整個 HPC-AI 伺服器收入流大約只能覆蓋 500 兆瓦的“AI 工廠”容量。話雖如此,正如美國能源部(US Department of Energy, DOE)在去年十月宣佈的九台新超級電腦所證明的那樣,對 HPC-AI 系統的投資正在加速。關於這些機器的細節有點稀缺,但看起來它們將更像是 DOE 實驗室租用的 Oracle 雲基礎設施(Oracle Cloud Infrastructure, OCI)的 HPC-AI 前哨站,而不是像幾十年來那樣直接購買的系統。轉向雲模式意味著 HPC-AI 收入將隨著時間推移趨於穩定,但也意味著它們將平均化,而不是波動性很大。我們目前所知道的是,Hyperion 表示,2025 年上半年整體 HPC-AI 市場增長了 22%,這與 2024 年看到的 23.5% 增長率非常接近。 (半導體行業觀察)
OpenAI,德國人要控告你侵權
“德國法院判定OpenAI訓練資料侵權,形成司法判例標竿。2025年11月11日,德國慕尼黑地方法院裁定OpenAI侵犯GEMA成員作品歌詞版權。這標誌著德國首起“AI訓練階段侵權”司法判決,意味著AI與版權的灰色地帶被法律照亮。AI學習的邊界究竟何在?歐洲會成為AI監管秩序的制定者嗎?中國的AI企業會受到何種影響?對此,本文將以該案件為切入點,梳理美國人工智慧巨頭(OpenAI、Meta、Google、Perplexity、Suno等)在歐洲的一系列糾紛,剖析背後的制度邏輯與地緣經濟動因,並探討這一趨勢對中國人工智慧企業的警示和借鑑意義:當人工智慧的底層邏輯是“學習一切”,而歐洲的規則邏輯是“許可一切”,二者的碰撞勢必引發全球格局的重構。全球首例“訓練侵權”判決為行業敲響警鐘2025年11月,德國慕尼黑地方法院判定OpenAI在訓練與輸出歌詞過程中侵犯音樂版權,成為全球首例AI大模型被判“訓練侵權”的正式案例。這一事件不僅標誌著AI與版權的衝突邁入司法化階段,也預示著歐洲在AI治理、資料主權、版權分配方面展開系統性反攻。法院在判決書中指出,OpenAI的語言模型在訓練過程中存在“記憶行為”。即,將訓練資料完整複製到模型參數中,這導致ChatGPT在輸出中再現了歌詞,從而侵犯了版權。法院強調,當模型訓練不僅從資料集中提取資訊,還在參數中包含訓練資料的完整複製時,這就構成了版權法意義上的“複製”。模型輸出相似歌詞則進一步構成未經授權的“複製與公開傳播”。這一判決,引發了全球關注。值得注意的是,此次判決,明確了AI模型訓練過程中使用受版權保護內容可能構成侵權,即使這些內容在模型中以參數形式存在,該判決給從業者們敲響警鐘,實際上,德國慕尼黑地方法院的判決僅是OpenAI面臨的眾多法律挑戰之一。在過去的3至5年中,隨著ChatGPT的發佈到商業化的快速擴張,OpenAI已陷入多起版權和隱私訴訟的漩渦。從更長遠的時間線來看,以下是資料猿梳理的一些具有代表性的案例:OpenAI被美國作家協會(Authors Guild)集體訴訟。2023年9月20日,OpenAI被美國作家協會(Authors Guild)集體訴訟。美國作家協會聯合17位知名作家,在紐約南區法院提起集體訴訟,原告指控OpenAI從盜版電子書庫批次下載其作品,將這些“專業創作、編輯和出版的書籍”複製到GPT-3.5和GPT-4的模型參數中,使其能夠生成模仿原告風格的內容,直接威脅作家生計。《紐約時報》起訴OpenAI新聞內容侵權。2023年12月,《紐約時報》向紐約南區法院起訴OpenAI和微軟,指控其未經許可使用數百萬篇文章訓練AI模型。《紐約時報》提供了100多個GPT-4輸出內容與時報報導高度相似的例子,證明模型能夠原封不動或模仿風格生成其內容,直接威脅其訂閱和廣告收入。NOYB在奧地利投訴OpenAI違反GDPR。2024年4月29日,歐洲隱私倡導組織NOYB向奧地利資料保護機構正式投訴OpenAI,指控ChatGPT違反歐盟《通用資料保護條例》(GDPR)。原告指出,ChatGPT資料不精準,捏造使用者出生日期等個人資訊。NOYB要求OpenAI糾正某公眾人物的錯誤出生日期。梳理髮現,在上述訴訟案例中,除德國慕尼黑地方法院已作出判決外,截至2025年11月,其餘訴訟仍處於審理階段。2025年就新增10余起!各地針對AI的版權糾紛浪潮此起彼伏除了OpenAI,美國AI巨頭,像Meta、Google、Anthropic等在歐洲同樣面臨著類似的訴訟潮。實際上,近兩年來,各地針對AI的版權糾紛浪潮此起彼伏,僅2025年就新增了十余起相關案件。這些案件大多指控人工智慧開發者在未事先獲得授權的情況下使用受版權保護的作品來訓練大型語言模型。如,Meta在2025年面臨來自法國出版界集體訴訟、Google被處以2.5億歐元天價罰款、Perplexity被BBC與《金融時報》指控抓取新聞內容……具體展開來看:·Meta:面臨來自法國出版界集體訴訟。2025年,Meta公司面臨來自法國出版界集體訴訟。原告指控Meta未經授權通過社交媒體平台非法抓取法語書籍、劇本及音樂作品用於訓練Llama模型。·Google:被處以2.5億歐元天價罰款。2024年,Google因使用新聞訓練被法國罰款2.5億歐元,成為全球首家因AI訓練資料侵權被處以巨額罰款的科技巨頭,開創監管先例。2024年3月,法國競爭管理局(Autorité de la concurrence)對Google處以2.5億歐元(約2.72億美元)罰款。Google未經法國出版商和新聞機構許可,擅自使用其內容訓練Bard基礎模型,違反歐盟智慧財產權規則。實際上,這是Google在同一問題上的第二次重大處罰,2021年已因類似違規被罰款5億歐元。法國監管機構指出,Google不僅侵犯版權,還破壞了與出版商的公平談判機制。·Perplexity:被BBC與《金融時報》指控抓取新聞內容。2025年6月,BBC向Perplexity發出法律警告,要求立即停止抓取BBC內容。Perplexity被指在未授權情況下抓取全球媒體內容建構資料庫,並在輸出中使用這些內容。原告方提供了大量直接複製或高度相似的內容對比,證明Perplexity“系統性剽竊”,BBC在警告信中要求Perplexity立即停止抓取所有內容,刪除所有BBC資料副本,並提供賠償方案。·Suno(美國AI音樂公司):遭丹麥KODA起訴這也是丹麥首次對AI音樂服務提起版權訴訟。2025年11月,丹麥音樂版權組織 Koda向哥本哈根城市法院提起訴訟,指控美國AI音樂公司Suno侵權,核心指控為,Suno未經許可使用Koda會員(約5.2萬名作曲家、詞曲作者和音樂出版商)的作品訓練AI模型,Koda稱這是“音樂史上最大規模的盜竊”,並指責Suno隱瞞訓練資料來源和範圍。這也是丹麥首次對AI音樂服務提起版權訴訟,Koda 要求法院判決Suno停止侵權、賠償損失,並建立透明的授權機制。·Clearview AI:生物識別資料的全球合規圍剿Clearview AI是美國一家專注於臉部辨識技術的公司,主要業務是開發麵部識別軟體,為執法機構和政府部門提供服務,其演算法可將人臉與從網際網路收集的數十億圖像資料庫匹配。2023年4月,法國資料保護機構對其處以520萬歐元罰款;2024年5月,荷蘭監管機構再罰3050萬歐元,疊加其他地區處罰,其全球罰款總額已遠超1500萬歐元。目前該公司在歐洲幾乎被全面禁止提供服務。此外,還有一些AI巨頭被訴訟的案例,如美國公司Midjourney於2025年6月、9月先後遭迪士尼、環球影業及華納兄弟起訴、美國Anthropic公司同年9月以15億美元和解因使用超50萬本版權書籍(含盜版)訓練Claude引發的集體訴訟……AI版權糾紛核心爭議背後:美歐在法律制度、版權理念具有差異綜合上述糾紛案例,我們可以看到,以上糾紛本質上是AI技術創新與傳統智慧財產權保護體系的衝突,背後卻折射出不同法域在法律制度、版權理念上的深層差異。實際上,歐洲對版權的嚴格保護,自有其一套成熟的版權集體管理體系(CMOs)。這一核心機制運轉百年,覆蓋音樂、文學、影視等全內容領域。權利人與CMOs建立委託代理關係後,CMOs可直接以自身名義談判授權、收取費用並行起維權訴訟,形成了高度組織化的保護網路。相比之下,美國AI企業長期依賴“合理使用”原則豁免責任,缺乏歐洲式的透明化合規機制,這本質是美歐版權保護理念的根本區別。上述案例也能看出,美國 AI公司習慣的"先使用後許可"或"合理使用抗辯"在歐洲似乎行不通了。歐洲秉持嚴格保護立場,歐盟《版權指令》要求"全球合規",無論訓練行為發生在何處,只要產品進入歐盟市場就必須遵守。除此之外,還有理念的分野。通過多個典型案例也可印證。如,英國AI公司Stability AI因未經授權使用數百萬版權圖像訓練Stable Diffusion遭起訴,2025年11月英國高等法院以“模型不儲存原作”判其不侵權,而美國法院因更關注訓練資料合法性仍未下判,進一步凸顯不同法域對AI訓練版權邊界的認定差異。值得注意的是,歐盟《人工智慧法案》(AI Act)已於2024年8月生效,並將於2026年全面實施,這意味著AI企業的合規要求將進一步收緊。對於全球化營運的企業而言,提前適配各個區域規則、搭建合規體系已成為必然要求。1.“先使用後驗證”與歐洲版權體系的“事前授權事後問責”形成對立AI技術的核心學習邏輯是“無限抓取、參數化模仿”,這種模式依賴對海量資料的無差別採集與內化。以上述提到的公司Meta舉例,Meta的Llama模型就被曝使用82TB的盜版書籍資料,覆蓋大量法語書籍、劇本及音樂作品,而OpenAI的ChatGPT訓練過程中也納入了未經授權的歌曲歌詞等內容。這種“先使用後驗證”的技術路徑,與歐洲版權體系“事前授權、事後問責”的核心邏輯形成天然對立。歐洲版權制度的根基是“授權方控制使用”,要求任何商業性質的內容使用必須提前獲得權利人許可,而AI的“參數化模仿”並非簡單提取資訊,而是通過模型參數“記憶”內容核心表達,當技術發展到能“近似復現”原作品時,技術邊界與法律邊界完全重疊。德國慕尼黑地方法院對OpenAI的判決正是這一沖突的集中體現:法院明確認定,模型將歌詞“記憶”並在輸出中再現的行為,構成版權法意義上的“複製”,而Suno AI能生成與版權音樂高度相似的旋律,也直接觸發了丹麥KODA 的侵權訴訟,讓技術行為無法再規避法律問責。2、歐洲在內容與法規層擁有主導權,是否會成為AI版權規則的“制定者”?在全球AI產業格局中,歐洲在基礎層明顯處於弱勢。算力核心硬體領域依賴輝達,本土AI巨頭市場影響力遠不及美國的OpenAI、Meta、Google,即便法國培育出Mistral AI等獨角獸,2023年法國AI市場規模也僅佔歐洲的17.3%,與中美差距顯著。但歐洲在內容與法規層擁有絕對主導權。內容端沉澱了全球最豐富的版權文化資源,法規端則建構了全球最嚴格的監管體系。為扭轉被動局面,歐洲通過訴訟、立法、罰款等機制重塑價值分配秩序。比如,在立法上,2024年生效、2026年全面實施的歐盟《人工智慧法案》(AI Act),要求通用目的AI模型在訓練時必須遵守歐盟版權法,並披露訓練資料來源摘要;若在訓練中違規使用受版權保護的內容,不僅違反版權法本身,也可能觸發AI Act下最高可達全球年營業額7%的罰款。司法上,德國法院判定OpenAI訓練侵權、法國法院受理Meta版權訴訟,形成司法判例標竿;罰款上,法國競爭管理局對Google處以2.5億歐元天價罰款,懲罰其未經許可使用新聞內容訓練Bard模型。這一系列動作讓歐洲成功將“被訓練者”的被動地位,轉化為AI版權規則的“制定者”。3.集體管理組織的產業性反攻GEMA、KODA、SNE/SGDL等歐洲版權集體管理組織(CMOs),已成為AI時代的“新版權談判代表團”。這些組織擁有成熟的運作機制和強大的資源整合能力:德國GEMA代表約6萬多名作曲家、作詞家和音樂出版商,2025年預計向全球權利人分配11.33億歐元版權費;法國SNE(國家出版聯盟)聯合SNAC(國家作者與作曲家聯盟)、SGDL(法國作家協會),能快速動員全行業力量發起集體訴訟;丹麥KODA則代表5.2萬名音樂創作者,覆蓋歐洲音樂版權的核心領域。面對AI廠商無償使用版權內容的現狀,這些組織發起系統性反攻。GEMA率先起訴OpenAI並勝訴,為全球AI訓練侵權訴訟樹立標竿;KODA針對Suno AI發起丹麥首例AI音樂版權訴訟,指控其“大規模盜用音樂作品”;SNE聯合多家機構起訴Meta,要求其刪除非法訓練資料集並賠償損失。它們的核心目標明確:通過集體訴訟形成壓力,迫使AI廠商放棄“免費抓取”模式,進入標準化的付費授權體系,Anthropic支付15億美元和解作者集體訴訟的案例,已證明這種產業性反攻的實際效果。4.地緣與輿論的共振在歐洲輿論場中,美國AI公司的“無限抓取”行為被普遍視為“文化掠奪”,這種認知背後是文化主權與科技主權的雙重焦慮。IE大學對歐洲10國3000餘人的調查顯示,歐洲民眾對AI的信任存在明顯邊界,尤其警惕外來科技公司對本土文化的侵蝕。法國出版商聯盟在起訴Meta時明確指責其行為是“版權掠奪”,強調要保護法語文化遺產免受“AI無償侵佔”;德國GEMA的訴訟也被賦予“守護德國音樂創作生態”的意義,反映出歐洲對本土文化內容被美國AI公司無償使用的強烈擔憂。在科技主權層面,歐洲深知自身在AI基礎層的短板,轉而通過版權監管建構“非技術壁壘,比如歐盟《人工智慧法案》的出台、多國對美國AI公司的罰款與訴訟,本質上是通過規則制定權避險美國的技術優勢。這些舉動,試圖讓歐洲民眾、監管機構與版權組織形成共識,推動針對美國AI公司的侵權糾紛集中爆發,而法國總統馬克宏提出的AI“第三極”戰略,更讓這種共振帶上了明確的地緣競爭色彩。從“野蠻生長”轉向“合規競逐”合規調整已箭在弦上基於歐洲AI版權訴訟浪潮與監管框架的成型,可以預見的是,全球AI產業將從“野蠻生長”轉向“合規競逐”。1.從判決到機制:AI版權許可制度成型,各家AI廠商不得不付費入場?如今,美國AI巨頭已被迫開啟“付費入場”模式。如上述提及的多個案例,Anthropic支付15億美元和解作者集體訴訟,成為首個大規範本權補償案例;Meta正與法國SNE聯盟談判法語書籍授權,以規避Llama模型的侵權風險;Google在2.5億歐元罰款後,已與歐洲新聞機構達成年度授權協議,金額超3億歐元。未來幾年內,歐洲將完成判決案、行業標準再到結算機制的落地,拒絕接入該機制的AI廠商將被限制在歐盟4.48億人口市場的商業變現,OpenAI、Perplexity 等依賴歐洲使用者的企業,將不得不每年支付數相關的版權費用。未來歐洲將建立AI訓練資料授權體系,形成類似Spotify的“AI版權結算機制”,各家AI廠商不得不付費入場。2.歐盟的AI Act與GDPR疊加,將形成嚴格的AI監管閉環AI模型須提供資料來源說明、權利人申訴通道、可解釋性文件和透明報告。合規將成為競爭壁壘。歐盟AI Act將於2026年全面實施,這一政策的實施與GDPR的疊加,將形成全球最嚴格的AI監管閉環,例如,未來將要求生成式AI必鬚髮布訓練資料詳細摘要,公開資料來源合法性證明;建立權利人專屬申訴通道,24小時內響應侵權投訴;提供模型決策邏輯的可解釋性文件,接受監管機構的定期合規審計。未來,合規能力將成為企業能否立足歐洲市場的“生死線”,並形成顯著競爭壁壘。從另一方面來說,單模型的合規審計和資料溯源投入,可能達到數十萬歐元甚至更高的等級,對中小企業而言構成不小的成本壓力,這將加速行業“馬太效應”。預計2027年歐洲AI市場前5大廠商將佔據大部分市場份額,大量不合規的中小玩家被淘汰。3.全球溢出效應:亞洲與中國必將被波及中國企業若在模型訓練中使用歌詞、書籍、影視、新聞等受保護內容,也將面臨“歐式合規標準”壓力。歐盟作為全球第二大AI市場,其監管規則將通過“市場准入倒逼”形成全球溢出效應,亞洲國家已率先做出反應:日本多家出版商聯合成立CODA聯盟,要求OpenAI停止使用其作品訓練Sora2,明確反對“默認授權”模式,其訴求與歐洲版權保護邏輯高度一致;韓國正修訂《版權法》,擬將AI訓練資料使用納入“事前授權”框架。這也意味著,像文心一言、通義千問、火山方舟等希望出海的中國模型,在進入歐洲市場時也不得不排查訓練資料中涉及歐洲版權內容的部分。另一方面,國內監管正加速跟進,國務院《關於深入實施“人工智慧+”行動的意見》明確要求完善AI版權制度,北京、江蘇已出現AI生成內容侵權判例,法院認定“人機協作作品受版權保護”,倒逼企業規範訓練資料來源。4.商業化路徑再塑:合規能力將成為AI公司的競爭力之一未來,合規能力將成為AI公司的競爭力之一。AI行業的競爭焦點將從“參數規模”轉向“合規能力”,“可審計訓練”“反覆現檢測”“版權清潔室”三大技術成為破局關鍵,直接決定企業的跨國合作與商業變現能力。頭部企業已率先佈局。Anthropic的Claude3推出“版權過濾”功能,可自動識別並排除訓練資料中的未授權內容,其“版權清潔室”技術吸引美聯社、大英百科全書等內容方合作;Stability AI在英國勝訴後,升級了“反覆現檢測系統”,確保生成圖像不與版權作品高度相似,成為首個獲得歐洲藝術協會授權的AI圖像廠商;Google Gemini則開放“訓練審計介面”,允許監管機構追溯資料使用全流程,合規優勢使其拿下歐洲多個政府項目訂單。商業化模式也隨之重構:一是“合規版模型”溢價銷售,如Meta針對歐洲市場推出Llama3合規版,訂閱費較基礎版高30%,仍吸引大量企業客戶;二是“版權分成”合作,Suno AI與KODA談判達成協議,將AI音樂生成收入的4%分給版權方,成為首個合法落地歐洲的AI音樂平台;三是合規技術輸出,如青鸞印的區塊鏈存證系統已被多家AI公司採用,年服務收入突破億元,催生“AI合規服務商”新賽道。對創作者而言,這一趨勢似乎會帶來新的收入增長點。通過CMOs接入AI版權結算機制,無需直接談判即可獲得訓練授權收入。“AI內容經紀人”等新職業出現,個體創作者可通過批次存證、打包授權實現規模化收益等等。如此看來,合規是挑戰,更是轉型契機。對於未來的AI企業而言,合規不是負擔,而是全球化競爭的入場券和商業模式升級的催化劑。誰能率先建立完善的版權合規體系,誰就能在這場全球AI治理變革中佔據主動,實現從"技術跟隨者" 到"規則參與者"的角色轉變。 (資料猿)
外媒:全球自然資源面臨AI發展的巨大挑戰
去年9月OpenAI   CEO   Sam Altman在一份內部備忘錄中提出一項計畫:在 2033 年前打造高達 250GW 的計算能力。這一用電規模已逼近一個國家的總用電,約等同於支撐整個印度 15 億人口的電力消耗。AI訓練與推理需要大量電力外媒一則報導據此指出:支撐 250GW 運算能力所需的 GPU 數量將達到 6,000 萬顆,以現行兩年一換代的經濟壽命推算,OpenAI 必須每年採購 3,000 萬顆 GPU 才能維持運作。極高的電力密度和運轉負載,已使 AI 訓練與推理成為全球成長最快的能源消耗來源之一。資料中心也是耗電大王同時,龐大用電與龐大的晶片需求已不再只是 OpenAI 的課題。全球大型雲服務商,包括 Microsoft Azure、Amazon AWS 與 Google Cloud,也正投入比以往任何時期更大規模的資料中心擴建。業界普遍預期,這些資料中心在未來十年將與鋼鐵、水泥與煉油產業並列全球主要耗電者,特別是 AI 伺服器全年無休,以推論與訓練為核心的運算模式,使資料中心用電急速增長。在這波 AI 電力競賽下,冷卻需求成為另一個被放大的環節。資料中心規模暴增,使得大量冷卻用水與裝置能耗拉高城市負荷,也造成局部電網品質下降與電價波動。多個國家已警告,資料中心集中區域可能面臨電力緊縮,部分地區甚至提前限制用電或推遲新資料中心建設,以避免影響一般家庭與企業的用電需求。GPU晶片生產能耗極大報導進一步指出,AI 晶片需求的爆炸式成長,使全球半導體供應鏈在啟動許多廠房,其中包括台積電與三星的多項先進製程基地。以台積電為例,Fab 25 單廠的用電量即需至少 1GW,可支撐約 75 萬戶台灣家庭;每日用水量約 10 萬公噸,相當於近 20 萬名台中市民的日常用水。台積電向外投資設廠除地緣政治之因素外,台灣的水電供給能否持續當是一個隱秘的考量。而今,隨著美國、中國、歐洲與東南亞等市場相繼投入 AI 基礎建設,科技競爭也逐漸演變成能源與資源競賽。AI 擴張與全球能源需求報導指出,AI 用電增長速度可能在未來十年內超過再生能源新增速度,電力供需缺口、區域性停電風險與電網負載問題將成為新常態。除了用電增長外,GPU 製造所需的稀土、金屬、超純水與能源,都對地球提出更高的負荷。因而,這篇報導最後強調,當人們不斷追求更大的模型、更高的算力與更密集的 GPU 部署時,除了思考「AI 還需要多少電」,更必須面對關於地球資源的問題——「自然資源究竟還能支撐多少人工智慧的擴張」? (芯聞眼)